Američko Ministarstvo odbrane želi da koristi napredne AI modele za analizu podataka, planiranje i operativnu podršku. Anthropic, jedan od najvažnijih AI startapa u SAD, insistira da njegovi modeli ne smeju da se koriste za autonomno donošenje odluka o upotrebi sile. Razgovori su zapeli, a potencijalni višegodišnji ugovor vredan stotine miliona dolara doveden je u pitanje.
Gde je tačno problem: AI kao pomoć ili kao odluka
Pentagon ne krije da vidi veštačku inteligenciju kao ključnu tehnologiju budućih konflikata. Brzina obrade informacija, analiza ogromnih količina podataka i podrška komandnim strukturama postaju presudni u savremenom ratovanju. Iz ugla vojske, komercijalni AI modeli su logičan izbor jer su već dokazani, skalabilni i brže se razvijaju od zatvorenih vojnih sistema.
Anthropic, međutim, povlači jasnu liniju. Kompanija dozvoljava korišćenje AI-ja u analitičke i logističke svrhe, ali se protivi svakoj upotrebi koja bi mogla da vodi ka autonomnom ciljanju, nadzoru bez jasne kontrole ili odlučivanju o životu i smrti bez ljudskog faktora. Njihov stav je da modeli moraju ostati alati za podršku, a ne zamena za ljudsku odgovornost.
Pentagon s druge strane tvrdi da postoje zakonski i proceduralni mehanizmi koji sprečavaju zloupotrebu, i da insistiranje na preširokim ograničenjima ograničava operativnu fleksibilnost. U prevodu, vojska želi AI koji može da se prilagodi realnim scenarijima, dok Anthropic želi AI koji ostaje unutar jasno definisanih etičkih ograda, ekskluzivno je danas objavio Reuters.

